cadena de Markov

sustantivo

Definición de cadena de Markov

: un proceso estocástico generalmente discreto como un paseo aleatorio en el que las probabilidades de ocurrencia de varios estados futuros dependen solo del estado actual del sistema o del estado inmediatamente anterior y no de la ruta por la cual se produjo el estado actuallogrado

- llamado también cadena de Markoff

primer uso conocido de cadena de Markov

1938, en el sentido definido arriba

Historia y etimología de cadena de Markov

AA Markov † 1922 matemático ruso

Siga desplazándose para obtener más

Más información sobre cadena de Markov

Viajero en el tiempo para cadena de Markov

El primer uso conocido de cadena de Markov fue en 1938

Ver más palabras del mismo año

Estadísticas para cadena de Markov

cite esta entrada

“Cadena de Markov” diccionario de Meaning88.com , es decir 88, http://www.meaning88.com/dictionary/Markov%20chain. Consultado el 22 de junio de 2021.

Estilo : MLA
MLA Chicago APA significado88

PALABRA DEL DÍA

Pon a prueba tu vocabulario

¡Devolución del nombre de ese color!

Ponga a prueba sus conocimientos y tal vez aprenda algo en el camino.

REALIZAR EL EXAMEN

Deletrear palabras. Hacer osos.

REALIZAR EL EXAMEN
¿Palabras de amor? ¿Necesitas aún más definiciones?

Suscríbase al diccionario más grande de Estados Unidos y obtenga miles de definiciones más y búsqueda avanzada, ¡sin publicidad!